Image segmentation is a fundamental task in computer vision. Data annotation for training supervised methods can be labor-intensive, motivating unsupervised methods. Some existing approaches extract deep features from pre-trained networks and build a graph to apply classical clustering methods (e.g., $k$-means and normalized-cuts) as a post-processing stage. These techniques reduce the high-dimensional information encoded in the features to pair-wise scalar affinities. In this work, we replace classical clustering algorithms with a lightweight Graph Neural Network (GNN) trained to achieve the same clustering objective function. However, in contrast to existing approaches, we feed the GNN not only the pair-wise affinities between local image features but also the raw features themselves. Maintaining this connection between the raw feature and the clustering goal allows to perform part semantic segmentation implicitly, without requiring additional post-processing steps. We demonstrate how classical clustering objectives can be formulated as self-supervised loss functions for training our image segmentation GNN. Additionally, we use the Correlation-Clustering (CC) objective to perform clustering without defining the number of clusters ($k$-less clustering). We apply the proposed method for object localization, segmentation, and semantic part segmentation tasks, surpassing state-of-the-art performance on multiple benchmarks.
translated by 谷歌翻译
Choosing the values of hyper-parameters in sparse Bayesian learning (SBL) can significantly impact performance. However, the hyper-parameters are normally tuned manually, which is often a difficult task. Most recently, effective automatic hyper-parameter tuning was achieved by using an empirical auto-tuner. In this work, we address the issue of hyper-parameter auto-tuning using neural network (NN)-based learning. Inspired by the empirical auto-tuner, we design and learn a NN-based auto-tuner, and show that considerable improvement in convergence rate and recovery performance can be achieved.
translated by 谷歌翻译
Motion planning is challenging for autonomous systems in multi-obstacle environments due to nonconvex collision avoidance constraints. Directly applying numerical solvers to these nonconvex formulations fails to exploit the constraint structures, resulting in excessive computation time. In this paper, we present an accelerated collision-free motion planner, namely regularized dual alternating direction method of multipliers (RDADMM or RDA for short), for the model predictive control (MPC) based motion planning problem. The proposed RDA addresses nonconvex motion planning via solving a smooth biconvex reformulation via duality and allows the collision avoidance constraints to be computed in parallel for each obstacle to reduce computation time significantly. We validate the performance of the RDA planner through path-tracking experiments with car-like robots in simulation and real world setting. Experimental results show that the proposed methods can generate smooth collision-free trajectories with less computation time compared with other benchmarks and perform robustly in cluttered environments.
translated by 谷歌翻译
在许多工程应用中,例如雷达/声纳/超声成像等许多工程应用中,稀疏多通道盲卷(S-MBD)的问题经常出现。为了降低其计算和实施成本,我们提出了一种压缩方法,该方法可以及时从更少的测量值中进行盲目恢复。提出的压缩通过过滤器随后进行亚采样来测量信号,从而大大降低了实施成本。我们得出理论保证,可从压缩测量中识别和回收稀疏过滤器。我们的结果允许设计广泛的压缩过滤器。然后,我们提出了一个由数据驱动的展开的学习框架,以学习压缩过滤器并解决S-MBD问题。编码器是一个经常性的推理网络,该网络将压缩测量结果映射到稀疏过滤器的估计值中。我们证明,与基于优化的方法相比,我们展开的学习方法对源形状的选择更为强大,并且具有更好的恢复性能。最后,在具有有限数据的应用程序(少数图)的应用中,我们强调了与传统深度学习相比,展开学习的卓越概括能力。
translated by 谷歌翻译
我们考虑具有某些约束的矩阵分解(MF),在各个领域找到广泛的应用。利用变异推理(VI)和单一近似消息传递(UAMP),我们通过有效的消息传递实现(称为UAMPMF)开发了MF的贝叶斯方法。通过对因子矩阵施加的适当先验,UAMPMF可用于解决许多可以表达为MF的问题,例如非负基质分解,词典学习,具有矩阵不确定性的压缩感,可靠的主成分分析和稀疏矩阵分解。提供了广泛的数值示例,以表明UAMPMF在恢复精度,鲁棒性和计算复杂性方面显着优于最先进的算法。
translated by 谷歌翻译
电磁(EM)成像广泛用于感应安全性,生物医学,地球物理学和各种行业。这是一个不当的逆问题,其解决方案通常在计算上昂贵。机器学习(ML)技术,尤其是深度学习(DL)在快速准确的成像中显示出潜力。但是,纯粹的数据驱动方法的高性能依赖于构建与实用方案一致的训练集,而在EM成像任务中通常不可能。因此,普遍性成为主要问题。另一方面,物理原理是EM现象的基础,并为当前的成像技术提供了基准。为了从大数据中的先验知识和物理定律的理论约束中受益,物理学嵌入的ML成像方法已成为近期大量工作的重点。本文调查了各种方案,以将物理学纳入基于学习的EM成像中。我们首先介绍有关逆问题的EM成像和基本公式的背景。然后,我们专注于将物理和ML进行线性和非线性成像组合的三种类型的策略,并讨论它们的优势和局限性。最后,我们在这个快速发展的领域中以公开的挑战和可能的前进方式得出结论。我们的目的是促进将有效,可解释和可控制的智能EM成像方法的研究。
translated by 谷歌翻译
我们提出了一种贪婪算法,以在$ p $输入功能中为非线性预测问题选择$ n $重要功能。在迭代损失最小化过程中,顺序选择这些功能。我们将神经网络用作算法中的预测因子来计算损失,因此我们将方法称为神经贪婪追求(NGP)。NGP在选择$ n \ ll p $时可以有效地选择$ n $功能,并且在顺序选择过程之后,它在降序中提供了特征重要性的概念。我们通过实验表明,NGP比多种特征选择方法(例如Deeplift和Drop-One-One-One Out损失)提供了更好的性能。此外,我们在实验上显示了一种相变行为,当训练数据大小超过阈值时,可以完美选择所有$ n $功能,而无需误报。
translated by 谷歌翻译
神经网络量化旨在将特定神经网络的高精度权重和激活转变为低精度的权重/激活,以减少存储器使用和计算,同时保留原始模型的性能。但是,紧凑设计的主链体系结构(例如Mobilenets)通常用于边缘设备部署的极端量化(1位重量/1位激活)会导致严重的性能变性。本文提出了一种新颖的量化感知训练(QAT)方法,即使通过重点关注各层之间的权重之间的重量间依赖性,也可以通过极端量化有效地减轻性能退化。为了最大程度地减少每个重量对其他重量的量化影响,我们通过训练一个依赖输入依赖性的相关矩阵和重要性向量来对每一层的权重进行正交转换,从而使每个权重都与其他权重分开。然后,我们根据权重量化的重要性来最大程度地减少原始权重/激活中信息丢失的重要性。我们进一步执行从底层到顶部的渐进层量化,因此每一层的量化都反映了先前层的权重和激活的量化分布。我们验证了我们的方法对各种基准数据集的有效性,可针对强神经量化基线,这表明它可以减轻ImageNet上的性能变性,并成功地保留了CIFAR-100上具有紧凑型骨干网络的完整精确模型性能。
translated by 谷歌翻译
本文研究了一个新的多设备边缘人工智能(AI)系统,该系统共同利用AI模型分配推理和集成感应和通信(ISAC),以在网络边缘启用低延迟智能服务。在此系统中,多个ISAC设备执行雷达传感以获取多视图数据,然后将提取功能的量化版本卸载到集中式边缘服务器,该功能基于级联功能向量进行模型推断。在此设置和考虑分类任务下,我们通过采用近似但可拖动的度量,即判别增益来衡量推理的准确性,该指标定义为在归一化协方差下欧几里得特征空间中两个类别的距离。为了最大化判别增益,我们首先用衍生的封闭形式表达来量化感应,计算和通信过程的影响。然后,通过将这三个过程集成到联合设计中来开发面向任务的端到端资源管理方法。然而,这种集成的感应,计算和通信(ISCC)设计方法然而,由于判别增益的复杂形式和设备异质性在渠道增益,量化水平和生成的功能方面,导致了具有挑战性的非凸优化问题子集。值得注意的是,可以根据比率方法来最佳解决所考虑的非凸问题。这给出了最佳ISCC方案,该方案共同确定多个设备的传输功率和时间分配,以进行传感和通信,以及它们的量化位分配以进行计算失真控制。通过将人类运动识别作为具体的AI推理任务,进行了广泛的实验来验证我们衍生的最佳ISCC方案的性能。
translated by 谷歌翻译
近年来,在诸如denoing,压缩感应,介入和超分辨率等反问题中使用深度学习方法的使用取得了重大进展。尽管这种作品主要是由实践算法和实验驱动的,但它也引起了各种有趣的理论问题。在本文中,我们调查了这一作品中一些突出的理论发展,尤其是生成先验,未经训练的神经网络先验和展开算法。除了总结这些主题中的现有结果外,我们还强调了一些持续的挑战和开放问题。
translated by 谷歌翻译